Мы довольно много пишем про кластеры хранилищ VMware Virtual SAN (VSAN), которые создаются на базе локальных дисков серверов VMware ESXi (например, тут и тут, а в последний раз - тут). А сегодня мы хотим рассказать о калькуляторе, который может пригодиться для расчета необходимой емкости хранилищ под Virtual SAN.
Написал его Duncan Epping, известный специалист по VMware vSphere и блоггер - один из немногих, которому можно верить.
Калькулятор рассчитывает общее количество требуемого дискового пространства (HDD и SSD-диски) как для кластера в целом, так и для одного хоста VMware ESXi, принимая в качестве исходных данных следующие параметры:
Количество ВМ в кластере хранилищ.
Объем оперативной памяти машины (vRAM).
Размер виртуального диска машины.
Число хостов, используемое для построения кластера.
Параметр Failures to tolerate (о нем мы писали тут).
Процент дискового пространства на метаданные и прочие издержки виртуализации хранилищ (по лучшим практикам - где-то 10%).
Процент пространства, которое занимает SSD-накопитель от дискового пространства на базе HDD-дисков хоста ESXi.
Поиграть с калькулятором дискового пространства для Virtual SAN можно по этой ссылке.
Мы уже немало писали про кластеры хранилищ VMware Virtual SAN (последнее - тут и тут), а сегодня рассмотрим механизм работы запросов на чтение блоков, который описал в своем блоге Duncan Epping.
Итак, схема кластера VMware Virtual SAN:
Здесь мы видим такую картину - виртуальная машина находится на хосте ESXi-01, а ее блоки размером 1 МБ размещаются на хранилищах разных хостов. При этом блоком 1 владеет ESXi-01, а блоком 2 - ESXi-03. Хост ESXi-02 не принимает участия в обработке запросов ввода-вывода.
Схема работы запроса на чтение проста - сначала проверяется наличие блока в кэше на чтение (Read cache), и если там блока не оказывается, то проверяется Write buffer на хранилище SSD (если блок еще не успел записаться на HDD) и непосредственно сам HDD-диск. В данном случае блок 1 нашелся на SSD-диске в кэше на чтение.
Второй же блок обслуживается хостом ESXi-03, но его не оказалось в кэше на чтение, и он читается с HDD-диска. Тут надо отметить, что кластер Virtual SAN помещает блоки в кэш на чтение только на тех хостах, которые активно обслуживают этот блок и владеют им, а те хосты, которые просто хранят копию данных - в Read cache таких блоков не помещают.
В небольших инсталляциях виртуальной инфраструктуры VMware vSphere может оказаться оправданным сделать один из серверов VMware ESXi сервером NTP, чтобы с ним синхронизировали свое время другие хосты.
Интересно, что немногие знают о том, что NTP-клиент сервера VMware ESXi 5.x (NTP-демон /sbin/ntpd) работает по-умолчанию не только как клиент, но и отдает время по запросу другим серверам как NTP-сервер. Поэтому достаточно лишь указать адрес хоста ESXi в качестве целевого хоста для синхронизации времени - и все будет работать.
Загвоздка тут одна - по умолчанию фаервол сервера ESXi блокирует входящие NTP-запросы по протоколу UDP на порт 123. Чтобы это исправить, нужно добавить собственное правило в сетевой экран. К сожалению, в Firewall GUI этой возможности не предусмотрено, поэтому придется лезть в конфиг-файл.
Для начала выведем список всех активных правил фаервола ESXi командой:
esxcli network firewall ruleset list
Создаем файл ntpd.xml с конфигурацией сервиса NTP со следующим содержимым (подробнее о процессе - тут):
Далее кладем этот файл в папку на хосте ESXi /etc/vmware/firewall/ntpd.xml и выполняем команду:
esxcli network firewall refresh
После этого мы увидим новое правило в конфигурации сетевого экрана ESXi (в командной строке его можно проверить командой list, приведенной выше):
Однако, к сожалению, пользовательская конфигурация фаервола ESXi не сохраняется при перезагрузке хоста, о чем написано в KB 2007381. Поэтому можно просто положить ntpd.xml на общее хранилище и добавить в /etc/rc.local команду по копированию ntpd.xml в нужную папку хоста и комнду рефреша правил фаервола. Однако это ненадежно, поскольку зависит от доступности общего хранилища.
Поэтому, все-таки, лучше сделать это правило постоянным с помощью процедуры, описанной у Андреаса, заметка которого и стала основой этой статьи. Для этого нужно будет создать и установить VIB-пакет (как сделать это для любого случая описано в той же KB 2007381).
Ну а используя готовый пакет от Андреаса, можно установить созданный им VIB для добавления правила в фаервол для NTP-сервера:
Иногда администраторам VDI-инфраструктуры виртуальных ПК VMware View требуется получить информацию о настройках клиентского устройства, таких как IP или MAC-адрес, используемый протокол или другие параметры, которые записывает туда View Agent. Хранятся эти настройки в ветке реестра HKEY_CURRENT_USER\Volatile Environment.
Чтобы пользователь или администратор VMware View мог собрать эти настройки быстро, Davoud Teimouri написал утилиту View Client Device Detector, которая живет в трее виртуального ПК и позволяет скопировать в буфер обмена весь этот конфиг, который потом можно кинуть в скайп или почту:
Многие администраторы и разработчики для своих целей используют VMware ESXi, работающий в виртуальной машине (так называемый Nested ESXi). Туда даже можно ставить свои VMware Tools.
При этом, когда требуется использовать виртуальные ESXi, как правило, их требуется несколько штук. Есть три способа получить их:
Поставить заново и настроить - самый надежный, но долгий.
Использовать процедуру автоматической установки и настройки Kickstart. Но тут надо знать, как это делается.
Склонировать существующий экземпляр ESXi - самое простое решение, но сделать это нужно правильно.
Вильям Лам описал третий вариант процедуры подготовки ESXi к клонированию, после проведения которой можно развертывать эти инстансы легко и просто. В результате у новых ESXi будут свои MoRef ID, UUID, BIOS UUID и MAC-адреса.
Итак, что нужно сделать:
1. Смена MAC-адреса VMkernel при смене MAC-адреса сетевого интерфейса VM Network.
Если развертывать новый ESXi с новым MAC-адресом Virtual machine network, то необходимо также поменять MAC-адрес VMkernel. Для этого есть настройка FollowHardwareMac, которая позволяет делать это автоматически.
Для этого выполняем команду консоли ESXCLI:
esxcli system settings advanced set -o /Net/FollowHardwareMac -i 1
2. Удаляем упоминание об UUID из esx.conf.
Запись о системном UUID сервера ESXi хранится в основном конфигурационном файле esx.conf (/etc/vmware/esx.conf). Нужно удалить строчку с упоминанием этого UUID - и тогда он сгенерируется при следующей загрузке.
После этого можно выключать ВМ с виртуальным VMware ESXi и клонировать ее. При загрузке новой ВМ, естественно, нужно поменять IP-адрес и прочую сетевую идентификацию.
В комментариях к заметке Вильяма пишут, что такой способ можно использовать для клонирования LUN, содержащего образ для загрузки ESXi по SAN.
Как многие знают, в VMware vSphere 5.5 появились возможности Virtual SAN, которые позволяют создать кластер хранилищ для виртуальных машин на основе комбинации SSD+HDD локальных дисков серверов VMware ESXi. Не так давно вышла обновленная бета этого решения, кроме того мы не так давно писали о производительности VSAN тут и тут.
Сегодня же мы поговорим о том, как нужно сайзить хранилища Virtual SAN в VMware vSphere, а также немного затронем тему отказоустойчивости. Более детальную информацию можно найти в VMware Virtual SAN Design & Sizing Guide, а ниже мы расскажем о подходе к планированию хранилищ VSAN вкратце.
Объекты и компоненты Virtual SAN
Начнем с простого ограничения по объектам (objects) и компонентам (components), которое есть в VSAN. Виртуальные машины, развернутые на vsanDatastore, могут иметь 4 типа объектов:
Домашняя директория виртуальной машины Virtual Machine ("namespace directory").
Объект файла подкачки - swap object (для включенной ВМ).
Виртуальный диск VMDK.
Дельта-диски для снапшотов. Каждый дельта-диск - это отдельный объект.
Каждый объект, в зависимости от типа RAID, рождает некоторое количество компонентов. Например, один VMDK, размещенный на двух томах страйпа (RAID 0) рождает два объекта. Более подробно об этом написано вот тут.
Так вот, ограничения тут следующие:
Максимальное число компонентов на 1 хост ESXi: 3000.
Максимальное число компонентов для одного объекта: 64 (это включает в себя тома страйпов и также реплики VMDK с других хостов).
На практике эти ограничения вряд ли актуальны, однако о них следует знать.
Сколько дисков потребуется для Virtual SAN
Во второй бета-версии VSAN (и, скорее всего, так будет в релизной версии) поддерживается 1 SSD-диск и до 7 HDD-дисков в одной дисковой группе. Всего на один хост VMware ESXi поддерживается до 5 дисковых групп. Таким образом, на хосте поддерживается до 5 SSD-дисков и до 35 HDD-дисков. Надо убедиться, что контроллеры хоста поддерживают необходимое количество дисков, а кроме того нужно проверить список совместимости VSAN HCL, который постоянно пополняется.
Также надо учитывать, что кластер хранилищ Virtual SAN поддерживает расширение как путем добавления новых дисков, так и посредством добавления новых хостов в кластер. На данный момент VMware поддерживает кластер хранилищ максимум из 8 узлов, что суммарно дает емкость в дисках в количестве 40 SSD (1*5*8) и 280 HDD (7*5*8).
Сколько дисковой емкости нужно для Virtual SAN (HDD-диски)
Необходимая емкость под размещение VMDK зависит от используемого параметра FailuresToTolerate (по умолчанию 1), который означает, какое количество отказов хостов может пережить кластер хранилищ. Если установлено значение 1, то реплика одного VMDK будет размещена на дисках еще одного из хостов кластера:
Тут можно сказать о том, как работает отказоустойчивость кластера Virtual SAN. Если отказывает хост, на котором нет виртуальной машины, а есть только VMDK или реплика, то виртуальная машина продолжает работу с основной или резервной копией хранилища. В этом случае начнется процесс реконструкции реплики, но не сразу - а через 60 минут, чтобы дать время на перезагрузки хоста (то есть если произошел не отказ, а плановая или внеплановая перезагрузка), а также на короткие окна обслуживания.
А вот если ломается хост, где исполняется ВМ - начинается процедура восстановления машины средствами VMware HA, который перезапускает ее на другом хосте, взаимодействуя при этом с Virtual SAN.
Более подробно этот процесс рассмотрен вот в этой статье и вот в этом видео:
Однако вернемся к требующейся нам емкости хранилищ. Итак, если мы поняли, что значит политика FailuresToTolerate (FTT), то требуемый объем хранилища для кластера Virtual SAN равняется:
Capacity = VMDK Size * (FTT + 1)
Что, в принципе, и так было очевидно.
Сколько дисковой емкости нужно для Virtual SAN (SSD-диски)
Теперь перейдем к SSD-дискам в кластере VSAN, которые, как известно, используются для вспомогательных целей и не хранят в себе данных виртуальных машин. А именно, вот для чего они нужны (более подробно об этом тут):
Read Cache - безопасное кэширование операций на чтение. На SSD-диске хранятся наиболее часто используемые блоки, что уменьшает I/O read latency для ВМ.
Write Buffering - когда приложение внутри гостевой ОС пытается записать данные, оно получает подтверждение записи тогда, когда данные фактически записаны на SSD (не на HDD), таким образом твердотельный накопитель используется как буфер на запись, что небезопасно при внезапном пропадании питания или отказе хоста. Поэтому данные этого буфера дублируются на других хостах кластера и их SSD-дисках.
Так каковы же рекомендации VMware? Очень просты - под SSD кэш и буфер неплохо бы выделять 10% от емкости HDD-дисков хоста. Ну и не забываем про значение FailuresToTolerate (FTT), которое в соответствующее число раз увеличивает требования к емкости SSD.
Таким образом, необходимая емкость SSD-хранилищ равна:
Capacity = (VMDK Size * 0.1) * (FTT + 1)
Ну и напоследок рекомендуем отличнейший список статей на тему VMware Virtual SAN:
На oszone.net вышла интересная статья, касающаяся развертывания агента StarWind SMI-S Agent под средство управления виртуальной инфраструктурой Microsoft Hyper-V - System Center Virtual Machine Manager (VMM). Напомним, что этот агент позволяет из консоли VMM управлять хранилищами виртуальных машин StarWind Native SAN for Hyper-V, в том числе хранилищами в бесплатной версии StarWind.
Используя компонент StarWind SMI-S для SC VMM вы сможете создавать, удалять и настраивать виртуальные хранилища StarWind таким образом, что вам почти никогда не придется запускать StarWind Management Console.
;
При этом для операций генерируется соответствующий PowerShell-скрипт, который вы можете кастомизировать для автоматизации рутинных операций с хранилищами.
Как знают многие администраторы, в VMware vSphere есть такая возможность как Hot Add (для процессоров ее называют Hot plug) виртуальных устройств (vRAM и vCPU), которая позволяет добавить эти ресурсы прямо в работающую виртуальную машину без необходимости ее остановки.
По умолчанию функции Hot Add для виртуальных машин на VMware ESXi выключены, чтобы не создавать дополнительную нагрузку при ненужном для большинства пользователей функционале. Hot Add можно включить на вкладке Options для виртуальной машины:
Это же можно сделать и через vSphere Web Client:
После этого можно добавлять vCPU и vRAM работающей виртуальной машине (но не для всех гостевых ОС). Вот какие требования предъявляются к технологии Hot Add в VMware vSphere:
Минимально необходима версия виртуального "железа" Hardware Version 7 или более поздняя.
Технология Hot-add/Hot-Plug не совместима с техникой Fault Tolerance.
Для поддержки Hot Add понадобится одно из следующих коммерческих изданий: vSphere Advanced, Enterprise или Enterprise plus.
Возможно только горячее добавление vRAM и vCPU, но не горячее удаление (раньше это поддерживалось) - и только для списка поддерживаемых ОС.
Необходимо учитывать особенности лицензирования гостевой ОС по процессорам и памяти, когда проводите такие манипуляции.
Если вы планируете использовать технологию Hot Add в Windows Server 2003, то нужно иметь в виду, что начнет происходить что-то странное, о чем написано в KB 913568 компании Microsoft.
Кроме этого, если вы включите Hot Add для виртуальных процессоров (vCPU), у вас прекратит работать технология vNUMA, что может существенно повлиять на производительность (см. KB 2040375). Ну а в логе в этом случае будет написано следующее:
vmx| W110: NUMA and VCPU hot add are incompatible. Forcing UMA
Таги: VMware, vSphere, Hot Add, Hot Plug, VMachines, vCompute, Blogs
То, о чем думали многие экспериментаторы и разработчики, но боялись попросить - на сайте проекта VMware Labs появились VMware Tools для виртуального VMware ESXi. Они поддерживают VMware vSphere версий 5.0, 5.1 и 5.5.
Как многим стало понятно, это пакет ПО, предназначенный для установки в консоли сервера ESXi, когда он установлен в виртуальной машине, запущенной на уже физической платформе с ESXi (по аналогии с VMware Tools для виртуальных машин).
Вот какие возможности есть в VMware Tools for Nested ESXi:
Предоставляет в консоли vSphere Client информацию о виртуальной машине с Nested ESXi (IP-адрес, имя хоста и прочее).
Позволяет виртуальному ESXi быть правильно перезапущенным или выключенным (restart и shut down, соответственно) при операциях через vSphere Client (толстый клиент) или vSphere API.
Возможность выполнения скриптов во время изменения хостом ESXi состояний питания (включение, выключение и т.п.).
Поддержка Guest Operations API (бывший VIX API) для операций внутри ВМ (т.е. в консоли вложенного ESXi).
Порядок установки:
Вариант 1 - скачиваем VIB-пакет, кладем его на датастор и ставим:
esxcli system maintenanceMode set -e true esxcli software vib install -v /vmfs/volumes/[VMFS-VOLUME-NAME]/esx-tools-for-esxi-9.7.0-0.0.00000.i386.vib -f
esxcli system shutdown reboot -r "Installed VMware Tools" - See more at: http://www.virtuallyghetto.com/2013/11/w00t-vmware-tools-for-nested
esxi.html#sthash.f89qps1O.dpuf
Вариант 2 - устанавливаем VIB прямо с сайта VMware:
esxcli network firewall ruleset set -e true -r httpClient
Недавно мы писали о новой сертификации VMware Certified
Associate (VCA), которая позволяет получить шильдик по одному из четырех направлений (сейчас пока доступно только 3):
В отличие от сертификации VMware Certified
Professional (VCP), сертификация VCA не требует предварительного прохождения курсов, а сам экзамен доступен на сайте Pearson VUE. Небольшая
проблема заключается в том, что сдача этого экзамена стоит 95 евро. Но это оказалось решаемо, и есть возможность сдать этот экзамен не
выходя из дома и абсолютно бесплатно.
Итак, что нужно для этого сделать:
Регистриуемся для сдачи экзамена на сайте VMware Certification, там
шедулим экзамен VCA и получаем Candidate ID.
Далее идем на Pearsonvue.com/vmware, где регистрируемся или входим, если уже есть
аккаунт. После заказа экзамена он будет доступен онлайн в течение 2-х дней.
Далее видим, что он стоит 95 евро. Применяем 2 промо кода VCA150 и VCA13ICS, после чего сумма должна превратиться в 0
евро (взято отсюда):
Сам я эту штуку не пробовал, поэтому если она не работает - не обессудьте.
Администраторам инфраструктуры виртуальных ПК часто оказывается необходимым просматривать лог событий VMware Horizon View на предмет ошибок и предупреждений (информация из EventsDB). Чтобы немного автоматизировать эту процедуру, Chris Halstead написал утилиту View Events Notifier, которая позволяет получить быстрый доступ к событиям View из трея, а также посылать уведомления о них на email:
По умолчанию утилита проверяет события каждые 60 секунд и шлет соответствующие уведомления. Сами уведомления можно получать об ошибках аудита (Audit Fail Events), предупреждениях (Warning Events) и ошибках (Error Events).
Скачать View Events Notifier можно по этой ссылке. В общем штука для скучающего администратора VMware View полезная:
Был тут случай недавно - пишет мне товарищ, дескать, что это мы пост разместили с инфой, которая под NDA. А откуда мы должны знать, что находится под NDA, а что не под NDA? И вообще с какой стати все эти заморочки с NDA? Я вообще на тему продуктов чьих-то NDA никогда не подписывал и подписывать не собираюсь. А если появляется утечка с новыми возможностями продукта или компании - это никакой нахрен не слив инфы под NDA, а самая обычная и уже набившая оскомину реклама - радуйтесь.
Или вот приходит нам рассылка про новую версию vCloud Director, а внизу написано:
***** Confidential Information ***** Do not forward information about this program or release to anyone outside of those directly involved with beta testing. This information is highly confidential.
Information contained in this email, including version numbers, is not a commitment by VMware to provide or enhance any of the features below in any generally available product.
Или вот NVIDIA пишет:
Обращаю ваше внимание, что информация брифинга находитсяпод NDAдо 17:00 по Москве вторника, 23-го июля.
И чо? А если я им в письме напишу, что им нельзя мыться 3 месяца - они будут этот наказ соблюдать?
Так что, уважаемые вендоры, надеюсь, вам понятна позиция VM Guru с вашими NDA. Если мы их не подписывали - не пишите нам ничего на эту тему, так как эти письма отправляются прямиком в трэш по ключевому слову "NDA".
Вон у Apple тоже, конечно, утечки бывают, но в целом-то - хрен узнаешь, когда этот новый айфон выйдет. Поэтому в этом посте мы с удовольствием расскажем о новых возможностях VMware vSphere 5.5 на основе информации, взятой из сети интернет (также об этом есть на блоге Андрея и Виктора - http://vmind.ru/2013/08/15/chego-zhdat-ot-vmware-vsphere-5-5/). Естественно, не все из этих фичей могут оказаться в релизной версии, и это, само собой, не полный их список.
New OS Support
Наряду с поддержкой Windows 8.1 (ожидается в VMware View 5.5) будут поддерживаться последние релизы гостевых ОС Linux: Ubuntu, Fedora, CentOS, OpenSUSE и другие дистрибутивы.
VMware Hardware Version 10
Теперь появится новое поколение виртуального аппаратного обеспечения версии 10. Это добавит новых возможностей виртуальным машинам с точки зрения динамических сервисов виртуализации. Для редакции vSphere Enterprise Plus будет поддерживаться до 128 vCPU.
Улучшенный интерфейс, большое количество фильтров и вкладка "recent objects", позволяющая получить быстрый доступ к объектам.
Улучшения по времени отклика интерфейса и возможность управлять большим числом объектов.
vSphere Replication - теперь доступны следующие возможности по репликации виртуальных машин:
Возможность репликации виртуальных машин между кластерами для машин не с общими хранилищами (non-shared storage).
Поддержка нескольких точек для восстановления целевой реплицируемой машины. Это защищает сервисы от логических повреждений данных, изменения в которых реплицируются на резервную площадку.
Storage DRS Interoperability - возможность реплицируемых машин балансироваться по хранилищам средствами технологии Storage vMotion без прерывания репликации.
Simplified Management - улучшенная интеграция с vSphere Web Client, что позволяет мониторить процесс репликации в различных представлениях vCenter.
Поддержка технологии VSAN (см. ниже) - теперь машины на таких хранилищах поддерживаются средствами репликации.
vCenter Orchestrator - теперь это средство автоматизации существенно оптимизировано в плане масштабируемости и высокой доступности. Разработчики теперь могут использовать упрощенные функции диагностики в vCenter Orchestrator client.
Virtual SAN
О возможностях VMware Distributed Storage и vSAN мы уже писали вот в этой статье. Virtual SAN - это полностью программное решение, встроенное в серверы VMware ESXi, позволяющее агрегировать хранилища хост-серверов (SSD и HDD) в единый пул ресурсов хранения для всех хостов, что позволяет организовать ярусность хранения с необходимыми политиками для хранилищ.
Поддержка томов vVOL
Также мы писали о поддержке виртуальных томов vVOL - низкоуровневых хранилищ для каждой из виртуальных машин, с которыми будут позволены операции на уровне массива, которые сегодня доступны для традиционных LUN - например, снапшоты дискового уровня, репликация и прочее. Проще говоря, VMDK-диск машины можно будет хранить как отдельную сущность уровня хранилищ в виде vVOL, и с ней можно будет работать отдельно, без влияния на другие ВМ этого массива.
VMware Virtual Flash (vFlash)
О возможностях VMware Virtual Flash (vFlash) мы уже писали вот в этой статье. vFlash - это средство, позволяющее объединить SSD-ресурсы хост-серверов VMware ESXi в единый пул, используемый для задач кэширования, чтобы повысить быстродействие виртуальных машин. vFlash - это фреймворк, позволяющий сторонним вендорам SSD-накопителей и кэш-устройств использовать собственные алгоритмы для создания модулей обработки кэшей виртуальных машин (плагины vFlash Cache Modules). Будет реализован и собственный базовый алгоритм VMware для работы с кэшем.
Virtual Machine File System (VMFS)
Теперь VMware vSphere 5.5 поддерживает vmdk-диски объемом более 2 TБ. Теперь объем виртуального диска машины может быть размером до 64 ТБ. Несколько больших файлов теперь могут храниться в одном vmdk. Это поддерживается только для VMFS 5.
vCloud Director
Теперь продукт доступен как виртуальный модуль (Virtual Appliance) - можно использовать как встроенную так и внешнюю БД. Этот модуль по-прежнему не будет рекомендован для продакшен-среды. Рекомендуют использовать его для апробации решения.
Был существенно улучшен Content Catalog:
Улучшена производительность и стабильность синхронизации
Расширяемый протокол синхронизации
Возможность самостоятельной загрузки элементов каталога (OVF)
Кроме того, для интерфейса управления теперь поддерживается больше браузеров и ОС (в том числе поддержка Mac OS).
vCloud Networking & Security
В составе vSphere 5.5 этот продукт будет иметь следующие улучшения:
Улучшенная поддержка Link Aggregation Control Protocol (LACP) - теперь поддерживается 22 алгоритма балансировки и до 32 физических соединений в агрегированном канале.
Улучшения производительности и надежности агрегированного канала.
Кроме того, вместо vCloud Networking and Security с октября выходит новый продукт VMware NSX.
Security Features
Теперь появится распределенный сетевой экран (Distributed Firewall), являющийся одним из ключевых компонентов концепции Software Defined Datacenter. Он работает на уровне гипервизора каждого из хостов VMware ESXi, а на уровне централизованной консоли доступен мониторинг проходящих пакетов от абсолютно каждой виртуальной машины.
Политики этого сетевого экрана определяются на уровне VXLAN, поэтому нет нужды оперировать с ним на уровне IP-адресов. Ну и так как поддержка этого распределенного фаервола реализована на уровне гипервизора - то политики перемещаются вместе с виртуальной машиной, если она меняет хост средствами vMotion.
Теперь vCenter SRM будет поддерживать технологию vSAN вместе с vSphere Replication, работать с технологиями Storage DRS и Storage vMotion. Кроме того, добавлена поддержка нескольких точек восстановления реплик (Multi-Point-In-Time snapshots) при исполнении плана аварийного восстановления.
VMware vCenter Multi-Hypervisor Manager (MHM) 1.1
Об этом продукте мы уже писали вот тут. Теперь он будет поддерживать гипервизор Microsoft Hyper-V 3.0 в Windows Server 2012 R2 (а также более ранние его версии). Также появилась возможность холодной миграции ВМ с хостов Hyper-V на VMware vSphere.
Single Sign-On 2.0 (SSO)
В новой версии единого средства аутентификации продуктов VMware теперь появится улучшенная и новая поддержка следующих компонентов:
vSphere
vCenter Orchestrator
vSphere Replication
vSphere AppHA (новый продукт, который будет анонсирован на VMworld)
vCloud Director
vCloud Networking and Security (vCNS)
Технология VMware vDGA для VMware Horizon View 5.5
О технологии NVIDIA VGX мы уже писали вот тут, тут и тут. Согласно этой презентации, уже скоро мы увидим возможности шаринга и выделение GPU отдельным виртуальным машинам:
Ну что знал - рассказал. В целом, ничего революционного. Поддержку Fault Tolerance для 4-х vCPU обещают в VMware vSphere 6.0.
Представляем вам заключительную (девятую) статью автора VM Guru Максима Федотенко, посвященную аудиту инфраструктуры виртуальных ПК. В этой части статьи разберем рекомендации по настройке аудита в инфраструктуре виртуальных десктопов. В Главе 1 разберем рекомендации по аудиту действий в самой инфраструктуре, а в Главе 2 – по настройке аудита действий пользователя в виртуальном десктопе... Таги: VMware, View, Security, VDI, VMachines, Blogs
Иногда, вследствие ошибки или отсутствия поддержки каких-либо функций, появляется необходимость обновить драйвер HBA-адаптера на сервере VMware ESXi - ведь ждать очередного обновления vSphere с обновленными драйверами можно очень долго.
Поэтому можно обновиться самим - это просто. Смотрим на свои адаптеры HBA, для чего выполняем команду:
# esxcfg-scsidevs -a
Здесь мы видим в каких слотах сервера размещены адаптеры (и производителя адаптера), но не видим версий их Firmware. Поэтому смотрим в девайсы, например для адаптера Qlogic (как смотреть остальные - тут):
# more /proc/scsi/qla2xxx/0
Здесь мы видим версию Firmware - 5.03.15 и метку версии драйвера.
Далее нужно посмотреть в KB 2030818 (Supported Driver Firmware versions for I/O devices) для того, чтобы определить поддерживаемые для ESXi драйверы адаптеров и рекомендации по текущей версии.
Например, для серверов HP идем в http://vibsdepot.hp.com/hpq/recipes/, где находим документ "HP-VMware-Recipe.pdf", в котором есть ссылки на необходимые драйверы:
Мы часто пишем заметки о безопасности виртуальной инфраструктуры VMware vSphere и других продуктов на данной платформе (их можно найти по тэгу Security). И вот на днях я натолкнулся на интересную статью "It’s a Unix system, I know this!", в которой есть одна умная мысль, касающаяся настройки безопасности, и которую я часто пытаюсь донести до заказчиков. А именно: некорректное планирование и исполнение процедур по обеспечению безопасности может привести к еще большим проблемам как с точки зрения конфигурации виртуальной среды, так и с точки зрения самой безопасности.
Итак, обратимся к статье. Есть такая организация в штатах Defense Information Systems Agency (DISA), которая выпускает документ Security Technical Implementation Guide (STIG), являющийся руководящим документом по обеспечению безопасности для правительственных организаций. Есть подозрение, что в части виртуальных машин он сделан на основе VMware vSphere Security Hardening, однако не из самой актуальной версии последнего.
Так вот в этом DISA STIG есть пункты, касающиеся виртуальных машин, например, пункт про отключение операций Copy/Paste с гостевой ОС виртуальной машины из ОС компьютера, где выполняется vSphere Client.
Посмотрим, как рекомендуется выполнить эту процедуру:
To edit a powered-down virtual machine’s .vmx file, first remove it from vCenter Server’s inventory. Manual additions to the .vmx file from ESXi will be overwritten by any registered entries stored in the vCenter Server database. Make a backup copy of the .vmx file. If the edit breaks the virtual machine, it can be rolled back to the original version of the file.
1. Open the vSphere/VMware Infrastructure (VI) Client and log in with appropriate credentials. If connecting to vCenter Server, click on the desired host. Click the Configuration tab. Click Storage. Right-click on the appropriate datastore and click Browse Datastore. Navigate to the folder named after the virtual machine, and locate the <virtual machine>.vmx file. Right-click the .vmx file and click Remove from inventory.
2. Temporarily disable Lockdown Mode and enable the ESXi Shell via the vSphere Client.
3. Open the vSphere/VMware Infrastructure (VI) Client and log in with appropriate credentials. If connecting to vCenter Server, click on the desired host. Click the Configuration tab. Click Software, Security Profile, Services, Properties, ESXi Shell, and Options, respectively. Start the ESXi Shell service, where/as required.
4. As root, log in to the ESXi host and locate the VM’s vmx file.
# find / | grep vmx
Add the following to the VM’s vmx file.
keyword = “keyval”
Open the vSphere/VMware Infrastructure (VI) Client and log in with appropriate credentials.
If connecting to vCenter Server, click on the desired host.
Click the Configuration tab.
Click Storage.
Right-click on the appropriate datastore and click Browse Datastore.
Navigate to the folder named after the virtual machine, and locate the <virtual machine>.vmx file.
Right-click the .vmx file and click Add to inventory. The Add to Inventory wizard opens.
Continue to follow the wizard to add the virtual machine.
Круто, да? Это все для того, чтобы просто отключить копирование из консоли ВМ (для одной машины), которое если уж кому-то очень сильно понадобится - он сделает все равно через принтскрин или еще как.
А теперь подумаем, к чему это все может привести:
В процессе такой настройки администратор может что-то испортить.
Сотни виртуальных машин обработать таким способом очень долго и нудно.
Такая процедура открывает больше дырок, чем закрывает (администратор снимает Lockdown хоста, делает операции в шеле и тыркается по вицентру).
Контролировать исполнение процесса очень сложно - все ли локдауны были закрыты, по всем машинам ли мы прошлись и т.п.
Конечно же, есть простой и элегантный способ сделать все это сразу для всех ВМ и с помощью PowerCLI через методы, описанные в пунктах vm.disable-console-copy и vm.disable-console-paste документа vSphere Hardening Guide.
Однако те из вас, у кого в компании есть отдел информационной безопасности, знают что такое формализм этих ребят, которые может в виртуализации и не разбираются, зато прекрасно понимают, что приведенный выше гайд несколько отличается от двух строчек на PowerShell.
И, хотя это в основном касается западных организаций, в отечественных крупных компаниях тоже возникают проблемы из-за подобных процедур.
Так вот какова мораль сей басни:
При разработке руководящих документов по обеспечению безопасности виртуальной инфраструктуры поймите, какие требования являются обязательными, а какие можно реализовать факультативно (то есть не реализовывать вовсе). Минимизируйте число обязательных требований и по мере необходимости расширяйте.
Используйте последние версии руководящих документов по ИБ от вендоров и всегда обновляйте свои собственные (хотя бы с выходом мажорной версии продукта).
Максимально применяйте автоматизацию при выполнении процедур по конфигурации безопасности. В VMware vSphere и других продуктах VMware можно автоматизировать практически все.
Если выполнение требования к ИБ виртуальной среды потенциально может открыть еще больше дырок, вызвать ошибки конфигурации и причинить еще беды, подумайте - а может стоит отказаться от этого требования или переформулировать его?
Ну а если кратко - с головой надо подходить, а формализм отставить. Больше интересных подробностей - в статье.
Не так давно мы писали про средство PCoIP Log Viewer, предназначенное для просмотра и визуализации логов решения для виртуализации настольных ПК VMware View в части протокола доставки виртуальных десктопов и пользовательских сессий.
Иногда возникает потребность правильно выключить виртуальные машины VMware vSphere в определенной последовательности, чтобы не нарушить консистентность данных и приложений. Требуется это при различных сценариях обслуживания инфраструктуры, переездах оборудования, подготовке к отключениям электричества и т.п. Ну а потом, соответственно, эти ВМ нужно включить - и тоже в нужной последовательности.
Специально для таких случаев Graham French допилил скрипт на PowerShell / PowerCLI, который автоматизирует процессы Startup / Shutdown для виртуальных машин на ESXi. Грэхам подошел к задаче научно - он разделил все ВМ на 5 слоев, отражающих очередность выключения машин:
Phase 1 - веб-серверы, балансировщики нагрузки, принт-серверы - то есть некритичные машины и машины на краю периметра датацентра.
Phase 2 - серверы приложений и другие серверы, являющиеся фронтэнд-звеном в архитектуре многокомпонентных приложений.
Phase 3 - серверы баз данных и кластеризованные серверы.
Phase 4 - NAS-серверы и файловые серверы.
Phase 5 - сервисы обеспечения инфраструктуры: Active Directory, DNS, DHCP, виртуальные модули (Virtual Appliances).
Соответственно, правильной схемой выключения виртуальных машин является последовательность Phase 1 -> Phase 5. Скрипт принимает на вход имена виртуальных машин в CSV-файлах, а также умеет выключать/включать и физические серверы:
Для включения машин используем обратную последовательность Phase 5 -> Phase 1:
Сам скрипт Startup / Shutdown и примеры CSV-файлов можно скачать по этой ссылке.
Недавно Duncan Epping опубликовал интересную статью о параметре Mem.MinFreePct, который есть в настройках сервера VMware ESXi из состава vSphere. По-сути, этот параметр определяет, какое количество оперативной памяти VMkernel должен держать свободным на хосте, чтобы всегда были доступные ресурсы под нужды системы, и хост не вывалился в PSOD.
В VMware vSphere 4.1 параметр Mem.MinFreePct составлял 6% и его можно было изменять с помощью следующей команды:
vsish -e set /sched/freeMemoryState/minFreePct <Percentage>
Например, вот так можно было установить Mem.MinFreePct в значение 2%:
vsish -e set /sched/freeMemoryState/minFreePct 2
Этак команда, кстати, не требует перезагрузки, но зато после перезагрузки значение Mem.MinFreePct не сохраняется. Поэтому данную команду, если требуется, нужно занести в /etc/rc.local (подробнее в KB 1033687).
Параметр этот очень важный, поскольку от него зависят пороги использования различных механизмов оптимизации памяти хоста ESXi. При этом, если памяти на хосте много (например, десятки гигабайт), то держать постоянно 6% свободной памяти может быть для кого-то расточительством. Поэтому, начиная с VMware vSphere 5.0, параметр Mem.MinFreePct является "плавающим" и устанавливается в зависимости от объема физической памяти на хосте ESXi.
Вот какие значения принимает Mem.MinFreePct в зависимости от того, сколько RAM есть на вашем физическом хост-сервере:
Процент необходимой свободной памяти
Объем памяти хоста ESXi
6%
0-4 ГБ
4%
4-12 ГБ
2%
12-28 ГБ
1%
Больше 28 ГБ
А вот какие механизмы оптимизации памяти на хосте работают, если свободной памяти становится все меньше и меньше:
Состояние свободной памяти хоста
Пороговое значение
Какие механизмы оптимизации памяти используются
High
6%
-
Soft
64% от значения MinFreePct
Balloon, Compress
Hard
32% от значения MinFreePct
Balloon, compress,swap
Low
16% от значения MinFreePct
Swap
Интересно, конечно, но как-то бесполезно. Зачем загонять хост в такие лимиты? Лучше как минимум процентов 10 всегда держать свободными и своевременно покупать новые серверы.
Решил вот тут вывести статистику посещаемости нашего портала с процентными соотношениями посетителей из разных городов. За последние полтора года получается вот такая картинка (кликните для увеличения):
Для тех, кому лень тыркать, наиболее виртуализованные города России и постсоветского пространства списком:
1.
Moscow
28,32%
2.
Saint Petersburg
8,31 %
3.
Kiev
6,87 %
4.
Minsk
3,17 %
5.
(not set)
2,51 %
6.
Yekaterinburg
2,42 %
7.
Novosibirsk
1,90 %
8.
Nizhny Novgorod
1,30 %
9.
Rostov-on-Don
1,24 %
10.
Kharkiv
1,15 %
11.
Almaty
1,12 %
12.
Samara
1,12 %
13.
Kazan
1,09 %
14.
Chelyabinsk
1,07 %
15.
Krasnodar
1,06 %
16.
Perm
0,97 %
17.
Krasnoyarsk
0,89 %
18.
Dnipropetrovs'k
0,85 %
19.
Voronezh
0,78 %
20.
Lviv
0,76 %
21.
Omsk
0,76 %
22.
Irkutsk
0,74 %
23.
Ufa
0,71 %
24.
Donetsk
0,70 %
25.
Vladivostok
0,68%
Оказывается, в замкадье тоже есть жизнь - и там сосредоточено более 70% наших читателей. Если, конечно, город "not set" менее чем наполовину состоит из хитропопых москвичей, блокирующих трекинг.
Компания VMware опубликовала очередной номер своего технического журнала VMware Technical Journal Summer 2013, в котором разбираются наиболее интересные технические аспекты решений для виртуализации на весьма глубоком уровне (зачастую даже с математическими выкладками). Напомним, что о предыдущем выпуске VMware Technical Journal мы писали вот тут. Как и в прошлом выпуске все статьи доступны онлайн и как PDF (5 МБ).
Мне понравились "Redefining ESXi IO Multipathing in the Flash Era" и "Methodology for Performance Analysis of VMware vSphere under Tier-1 Applications".
Мы уже много писали о калькуляторе VMware View VDI Flash Calculator, который делает Andre Leibovici, автор сайта myvirtualcloud.net. На сегодняшний день это калькулятор номер 1 для расчета параметров инфраструктуры виртуальных ПК на базе VMware View (с поддержкой vSphere 5.1 и View 5.1).
На днях вышла полностью обновленная версия этого калькулятора. Теперь он выпускается не в виде онлайновой флеш-утилиты, а в виде Java-приложения для Windows и Mac (необходима Java 6 или более поздней версии).
Что нового появилось в калькуляторе:
Offline Support – новая версия работает без доступа к сети + умеет самообновляться.
Load/Save – теперь можно сохранять и загружать конфигурации, что удобно для консультантов, рассчитывающих несколько проектов по внедрению VMware View.
Tool Tips – над каждым полем тултипы рассказывают о том, для чего оно нужно.
Validations – на поля ввода повешена валидация значений, в том числе на предмет соответствия официально поддерживаемым VMware конфигурациям.
Бесплатен - но с ротацией рекламы.
В будущем Андре обещает поддержку Android-устройств, расчет виртуальных ПК XenDesktop, работающих на платформе vSphere, и многое другое.
Как многие из вас знают, у компании VMware есть награда vExpert, присуждаемая ИТ-специалистам за существенный вклад в развитие технологий виртуализации и привнесение своих знаний и опыта в многотысячное сообщество, существующее вокруг облачных сред и виртуальных инфраструктур. Кто-то получает звание vExpert, сделав две записи в блоге, а кто-то за десятки полезных скриптов, которые используют тысячи людей. Однако, в целом, этих людей знают и уважают в вмварном комьюнити.
Звание vExpert 2013 можно было получить по одной из трех следующих линий:
Евангелисты (Evangelist Path) - к ним относится ваш любимый автор и другие наши российские коллеги, получившие звания в прошедшие годы. Присуждается эта награда за активное ведение блогов, разработку утилит и скриптов, участие в публичных мероприятиях и другие вещи, которые способствуют популяризации технологий виртуализации.
Представители заказчиков (Customer Path) - в данной категории находятся те заказчики, которые внесли наибольший вклад в успех и продвижение продуктов и технологий VMware в информационном пространстве за счет историй успеха, интервью, а также лидерства в сообществах VMware User Groups.
Партнеры VMware (VMware Partner Network Path) - это сотрудники компаний-партнеров VMware, которые внесли вклад в развитие профессиональных сообществ, делились знаниями и пропагандировали технологии виртуализации среди своих коллег по цеху и конечных пользователей.
John Troyer - бессменный куратор программы, балагур и весельчак, опубликовал полный список получивших звание vExpert 2013, который насчитывает аж 580 человек, что является самым большим с момента зарождения этой программы (а существует она уже 5 лет).
Ну что ж, поздравлю всех российских коллег, да и чего уж там - сам себя - с шильдиком vExpert 2009-2013.
Как многие из вас слышали, у VMware есть крутая сертификация VCDX (VMware Certified Design Expert) - высшая степень сертификации технических специалистов, предполагающая не только глубокие знание и сдачу экзаменов, но и разработку и защиту собственного проекта перед панелью экспертов (таких же VCDX). Это весьма сложная штука.
Многие пытались, да не все смогли. Так вот, есть несколько интересных ссылок про VCDX-специалистов. Кто же они? Итак:
На страницах vSphere Blog обнаружилась интересная статья Вильяма Лама про патчи, накатываемые на гипервизор VMware ESXi. Приведем здесь основные выдержки, которые могут оказаться полезными при обслуживании виртуальной инфраструктуры VMware vSphere.
Итак, для начала приведем структуру разделов на диске установленной копии ESXi:
Основное отличие от традиционной ОС в VMware ESXi - это то, что все файлы, необходимые гипервизору, хранятся в разделе фиксированного объема (Primary Boot Bank - 250 МБ). Альтернативный Boot Bank такого же размера необходим на случай отката к предыдущей версии ESXi, вне зависимости от того был ли произведен Update (накатывание патчей) или Upgrade (накатывание новой версии ESXi).
Если мы произведем апгрейд ESXi 5.0 на версию 5.1, то структура банков поменяется следующим образом:
Хотя это на самом деле даже и не так - ESXi 5.0 останется в прежнем банке, а загрузчик (Boot Loader) будет указывать уже на альтернативный банк, где разместится ESXi 5.1.
Когда происходит накатывание патча на ESXi - меняется весь банк (основной или альтернативный), поэтому патчи так много весят (по сути обновляется весь основной дистрибутив):
Но в этом есть и преимущество - размер раздела для банка фиксирован и установка ESXi не разрастается со временем при установке новых апдейтов и апгрейдах. Кстати, обратите внимание, что под патчем написано его влияние на систему после установки.
Следующий момент: являются ли патчи кумулятивными, то есть содержат ли они все предыдущие обновления ESXi? Да, все патчи содержат в себе предыдущие, поэтому нет необходимости накатывать их последовательно. Скачать патчи VMware ESXi можно с Patch Portal.
Далее, мы видим, что у патча есть список Bulletin List с суффиксом BG (Bug Fix). Есть также и SG-бюллетени обновлений по безопасности (Security). Оба этих типа бюллетеней могут обновлять как основной банк (base), так и пакеты VMware Tools (драйверы и прочее). Кроме того, в бюллетенях содержатся обновления драйверов устройств для самого сервера ESXi.
SG-бюллетень содержит только обновления подсистемы безопасности, а BG-бюллетени могут содержать новый функционал, исправления ошибок и, опять-таки, обновления, касающиеся безопасности.
Наконец, каждый бюллетень состоит из VIB-пакетов, о структуре которых Вильям хорошо рассказал вот тут. Список установленных VIB-пакетов на хосте ESXi можно узнать командой:
В большой инфраструктуре виртуальных ПК, насчитывающей сотни десктопов, администраторам часто приходится решать проблемы, связанные с управлением группами Active Directory, которые назначаются пулам виртуальных ПК. С увольнением пользователя из организации или, наоборот, с его приходом приходится вручную изменять группы AD и настройки пулов VMware Horizon View, чтобы убедиться, что число пользователей группы AD совпадает с количеством доступных виртуальных ПК в каждом пуле, и пользователи VDI распределены по пулам корректно.
Для автоматизации решения этих задач на сайте проекта VMware Labs доступна утилита View Pool Manager, с помощью которой можно выполнять следующие операции с группами AD:
Указать количество пользователей на security group (исходя из размера пула виртуальных ПК).
Поддержка плавающих непостоянных (Floating) и постоянных (Persistent) пулов.
Source Security Groups - группы, содержащие пользователей, которые назначаются пулам виртуальных ПК через целевые группы.
Destination Security Groups - целевые группы, имеющие права на лоступ к пулам виртуальных ПК. Этим группам назначаются пользователи исходных групп.
Очевидно, что VMware View Pool Manager не зависит от версии VMware View, так как работает только с группами Active Directory. Скачать утилиту можно по этой ссылке. Для ее работы требуется .NET Framework 4.0.
Известный инструктор Simon Long опубликовал в своем блоге диаграмму, показывающую, какие локальные порты и соединения задействуются инфраструктуре виртуальных ПК VMware Horizon View 5.2.
На диаграмме представлен дизайн внутренней инфраструктуры, а вот схема по портам с учетом внешних соединений:
Не так давно мы уже писали о накладных расходах на виртуализацию по памяти для виртуальных машин на платформе VMware vSphere, а сегодня поговорим о виртуальных ПК, которые предъявляют дополнительные требования к объему памяти сверх выделенного на обеспечение работы различных графических режимов в гостевой ОС.
Для начала отметим, что на платформе VMware Horizon View 5.2 появились следующие изменения по сравнению с предыдущими версиями в плане графических режимов виртуальных ПК:
Horizon View 5.2 не позволяет установить 24-битную цветовую палитру, теперь используется только 32-битная.
Horizon View 5.2 позволяет устанавливать разрешения только 1680×1050, 1920×1200 и 2560×1600. Дефолтным является 1920×1200.
Теперь о накладных расходах по памяти для виртуальных машин.
3D Software Rendering отключен
В этом случае расходы дополнительной памяти сервера на виртуальный ПК зависят от используемого разрешения и количества мониторов для виртуальной машины (значения приведены в мегабайтах):
Затраты памяти
Число мониторов
Разрешение/Мониторы
1
2
3
4
1680×1050
6.73
21.54
32.30
43.07
1920×1200
8.79
28.13
42.19
56.25
2560×1600
31.25
62.5
93.75
125
Как вы знаете, в ESXi 5.0 появились возможности VMX Swap, которые позволяют создать swap-файл для сегментов данных процесса vmx, куда сбрасываются страницы памяти, но только в случае нехватки физической оперативной памяти на хосте. Он в разы уменьшает использование физической памяти на Overhead виртуальных машин в случае недостатка ресурсов.
Затраты хранилищ (в мегабайтах) на создание второго *.vswp файла для механизма VMX Swap рассчитываются следующим образом:
VMX SWAP
Число мониторов
Разрешение/Мониторы
1
2
3
4
1680×1050
107
163
207
252
1920×1200
111
190
248
306
2560×1600
203
203
461
589
Как мы видим, для некоторых виртуальных ПК может потребоваться более полугигабайта дополнительного дискового пространства.
3D Software Rendering включен
Для виртуальных ПК отдельно или в пределах пула можно установить объем видеопамяти (VRAM, не путать с vRAM) доступный гостевой системе, что влияет на накладные расходы на виртуализацию.
В этом случае дополнительно требуемая физическая память будет рассчитываться как 64 МБ + 16 дополнительных МБ на каждый монитор.
Что касается SWAP-файла, то требуемый для него объем существенно выше, чем в первом случае. Он зависит от выделенной видеопамяти:
VRAM
.vswp (МБ)
64 MB
1076
128MB
1468
256MB
1468
512MB
1916
То есть, в некоторых случаях дополнительные затраты на хранилище отдельной виртуальной машины могут достигать 2 ГБ. Чтобы это все учитывать при планировании инфраструктуры виртуальных ПК, можно воспользоваться калькулятором от Andre Leibovici, по материалам которого и написана эта заметка.
Время от времени мы пишем о графических материалах, позволяющих пользователям и партнерам VMware документировать виртуальную инфраструктуру VMware vSphere, VMware View, VMware SRM и прочее. Мы писали о наборе картинок для VMware vSphere 5 тут и тут, вот об этом наборе иконок, картинок и диаграмм, об этом, а также и об этом неофициальном наборе стенсилов Visio.
Последний как раз вчера и обновился в составе третьей части, которая теперь включает в себя картинки, графику и стенсилы для следующих компонентов:
Обратите внимание, что VMware настаивает на включении в документы, которые содержат эти картинки, какого-то бредового текста, который вы увидите в начале данных презентаций.
Представляем вам седьмую статью автора VM Guru Максима Федотенко, посвященную дополнительным режимам работы инфраструктуры виртуальных ПК. В основном все инфраструктуры виртуальных десктопов строятся для использования удаленного режима в качестве основного, поэтому локальный режим следует по умолчанию запретить для всего View Manager... Таги: VMware, VDI, Security, vSphere, Blogs
Интересная, но спорная штука должна оказаться доступной сегодня, 11 марта - VMware Cloud Cred Program. Это новая инициатива по вовлечению профессионалов в сфере виртуализации на базе продуктов VMware в хм.. новый вид социальной игры.
Краткий обзор веб-сервиса Cloud Cred:
Технический обзор на вебинаре VMware, посвященном Cloud Cred:
Участвовать в активностях сервиса можно как отдельному человеку, так и командам (оба варианта также возможны совместно). В этих двух режимах профессионалы и могут собирать очки (слева - индивидуальные очки, справа - очки команды):
По-сути, это новый членомер от VMware для тех, кому требуется еще одна площадка для самовыражения. Видимо, в VMUG'ах стало тесновато и выделиться на фоне безликой толпы админов стало довольно сложно. Поэтому люди будут расти не только на фоне других, но и в глазах себя, зарабатывая очки и бейджи.
Итак, за что же даются эти очки? За выполнение заданий. Вот примеры таких заданий:
Можно вести блог, можно шарить знания с комьюнити, можно участвовать в мероприятиях или выполнять различные лабораторные работы. Например, если вы поставите VMware vCenter и создадите 1 машину на VMware ESXi, то получите 500 очков (подтверждается нотариально заверенным скриншотом):
Также за различные активности и статусы (например, вы vExpert и помогли человеку) вам дают бейджи. Их вы можете распечатать и повесить себе на грудь сайт.
Манчкинируя денно и нощно на очки, можно накопить себе на ручку, футболку и (уау) даже зонт:
Если вы особенно круты - вас засыпят стикерами "I love VMware" и выдадут почетную "Cloud Cred button".
Зарабатывая бейджи и "лидируя" в активностях, можно добиться своего упоминания в твиттере или фейсбуке VMware (вот это да!) или попасть на вечеринку CTO Party (боюсь предположить, что там происходит). А гвоздем программы и главным призом является посещение конференции VMword с компенсацией затрат на проезд и проживание + карманные деньги.
Ну что тут сказать? Затея эта, по меньшей мере, спорная по множеству причин. Во-первых, настоящие профессионалы в сфере виртуализации вряд ли могут позволить себе тратить время на столь бесполезное занятие, как получение бейджиков и поинтов. Зато пройдохи, бездельники и лоботрясы - сколько угодно. А ведь платформа вроде как официальная, а значит по ней будут судить о том, кто и какой вклад совершает в комьюнити. Вот и получится из этого сайта примерно то, что многие из вас видели на унылых вмварных эвентах (не все, конечно, вмварные эвенты - унылые).
Во-вторых, коммерциализация блоггинга, шаринга и прочих ингов, совершаемых людьми из филантропических побуждений - не очень хорошая идея. Раньше помогали просто так, а теперь - за поинты, на которые можно купить зонт. Это правильно?